„Nie wiem”: ChatGPT-5 zapiera dech w piersiach Elona Muska i ekspertów technologicznych

W ostatnich tygodniach premiera ChatGPT-5 firmy OpenAI przykuła uwagę całego świata. Zaskoczeniem nie była szybkość odpowiedzi ani możliwości analityczne, ale raczej najbardziej ludzka odpowiedź, jaką można sobie wyobrazić: „Nie wiem”.
Użytkownik zapytał sztuczną inteligencję, czy jego maszyna wirtualna znajduje się w Europie, czy w Stanach Zjednoczonych. Po 34 sekundach przetwarzania ChatGPT-5 odpowiedział zaledwie dwoma słowami , co zaskoczyło wielu, w tym ekspertów takich jak Elon Musk , którzy zauważyli naturalność interakcji.
Natychmiast rozgorzała debata: dlaczego sztuczna inteligencja nie zawsze jest w stanie udzielić trafnej odpowiedzi? Musk i inni eksperci uważają, że przyznanie się do niewiedzy jest kluczowym krokiem w kierunku stworzenia Sztucznej Inteligencji Ogólnej (AGI) .
Użytkownik X, Kol Tregaskes, stwierdził, że woli sztuczną inteligencję, która mówi „nie wiem” , niż fabrykować dane, co odzwierciedla wagę niezawodności i przejrzystości modeli sztucznej inteligencji.
Choć uczciwość ChatGPT-5 została doceniona na platformie X, niektórzy użytkownicy Reddita kwestionowali wiarygodność takich odpowiedzi. Aby to wyjaśnić, przeformułowali pierwotne pytanie, sugerując, że sztuczna inteligencja jest rozproszona między Stanami Zjednoczonymi a Europą.
Odcinek ten pokazuje, że właściwe formułowanie pytań ma kluczowe znaczenie i że zaawansowane SI muszą znaleźć równowagę między szybkością i dokładnością, nie rezygnując przy tym ze szczerości w kwestii swoich ograniczeń.
ChatGPT-5 może przyznać się do niewiedzy, jeżeli:
- Nie masz niezbędnych danych w swoim szkoleniu.
- Dostępne źródła są sprzeczne lub niewiarygodne.
To zachowanie zapobiega halucynacjom sztucznej inteligencji , powszechnemu problemowi w poprzednich modelach, w których sztuczna inteligencja wymyślała pozornie pewne odpowiedzi. Zdolność rozpoznawania ograniczeń stanowi istotny krok w kierunku wiarygodnej i etycznej sztucznej inteligencji .
La Verdad Yucatán